1
Do Código Tradicional às Aplicações de IA Generativa
AI011Lesson 3
00:00

Do Código Tradicional às Aplicações de IA Generativa

O panorama do desenvolvimento de software está passando por uma mudança fundamental. Estamos nos movendo de um programação rígida e baseada em comandos para uma abordagem flexível e orientada à linguagem natural IA Generativa interação.

1. Quebrando a Cadeia de Comandos

O que é: Aplicações tradicionais dependem de interfaces gráficas fixas (GUIs) ou conjuntos específicos de comandos dependentes da linguagem. Se um usuário se desviar da entrada esperada, o sistema falha.

Por que isso importa: Aplicações de IA Generativa oferecem flexibilidade sem precedentes. Elas permitem que os usuários interajam usando linguagem natural para alcançar objetivos complexos, adaptando-se ao propósito em vez apenas à sintaxe.

2. O Princípio da Não Determinismo

O que é: No código tradicional, $1 + 1$ sempre resulta em $2$. É determinístico. Modelos de Linguagem de Grande Porte (LLMs), por outro lado, operam com base em probabilidades.

Como funciona: Eles podem produzir resultados diferentes para o mesmo prompt exato. Essa variação é gerenciada por parâmetros específicos, especialmente Temperatura.

3. Blocos Básicos: Tokens e Temperatura

  • Tokens: Os blocos numéricos básicos do texto usados pelo modelo. As palavras são divididas nesses elementos menores que são unidades subpalavra.
  • Temperatura: Uma configuração (variando de $0.0$ a $1.0$) que controla a aleatoriedade. Valores baixos produzem texto previsível e focado; valores altos incentivam saídas criativas e diversas.
Segurança em Primeiro Lugar
Nunca codifique chaves de API diretamente no código da sua aplicação. Sempre use variáveis de ambiente (por exemplo, .env arquivos) para proteger seus recursos de IA contra acesso não autorizado.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.